적은 정보로도 ‘프라이버시 침해’ 밝히는 신기술 등장

 



인공지능 학습 데이터의 ‘프라이버시 침해 여부’를 알아내는 새로운 방법


AI가 당신을 기억하고 있다? 

AI는 똑똑하다. 그런데 너무 똑똑해서 문제다.

딥러닝 모델이 훈련에 사용된 정보를 ‘기억’한다면 어떻게 될까? 예를 들어, 어떤 AI가 암 진단용 이미지로 학습을 했다면, 그 모델을 통해 “이 사람, 훈련에 쓰였어!”라는 정보까지 유추할 수 있는 것이다.

이걸 가능하게 만드는 것이 바로 Membership Inference Attack(회원 추론 공격, MIA)이다. 그리고 최근 연구진이 이 공격 방식을 한 단계 업그레이드해냈다. 적은 데이터로도 강력한 공격이 가능한 새로운 모델을 선보인 것이다. 이름하여 FeS-MIA, 여기에 Log-MIA라는 새로운 평가 방법까지 추가해 AI 프라이버시 문제를 보다 쉽게 측정할 수 있게 됐다.


---

회원 추론 공격(MIA)이란?

간단히 말해, AI가 어떤 데이터를 학습했는지 알아내는 공격이다. 예를 들어, 어떤 사람이 민감한 의료 데이터를 제공해 AI 훈련에 참여했다면, MIA는 그 사람이 데이터셋에 포함되었는지를 추정할 수 있다. 이건 매우 큰 개인정보 침해다.


문제는 기존 MIA 방식은 너무 비효율적이었다:

 * 데이터도 많이 필요하고,

 * 연산량도 크고,

 * 평가 기준도 애매했다.


이걸 해결하려고 연구진은 두 가지를 제안했다:

1. 적은 샘플만으로도 가능한 MIA 모델 (FeS-MIA)

2. 새롭고 직관적인 평가 방법 (Log-MIA)


---

적은 데이터로도 공격이 가능하다고?

기존 MIA는 대규모 ‘섀도우 모델’(AI를 흉내 낸 모델)을 여러 개 만들어야 해서 자원 소모가 심했다. 반면, FeS-MIA(Few-Shot Membership Inference Attack)는 이름 그대로 ‘몇 개의 샘플’만 가지고도 MIA를 수행할 수 있다. 즉, 현실적인 상황에서도 실행이 가능한 모델이라는 뜻이다.


예를 들어, 딥러닝 모델의 훈련 데이터셋을 전혀 몰라도, 몇 개의 ‘의심 샘플’과 모델 응답만 있으면 공격이 가능하다. 특히 지원 집합(소수의 라벨된 샘플)과 쿼리 집합(검증 대상)만으로 빠르게 판단할 수 있다.


세 가지 FeS-MIA 구현 방식이 제시됐다:

 FeS-MIA TT: 모델을 직접 튜닝함. (화이트박스)

 FeS-MIA SS: 단순한 거리 기반 분류기. (블랙박스)

 FeS-MIA LS: 라플라시안 기반의 강화된 분류기. (블랙박스)


---

새로운 평가 방식: Log-MIA

기존에는 MIA 성능을 정확도나 정밀도로 평가했지만, 이런 지표들은 실질적인 ‘개인정보 유출’을 제대로 반영하지 못한다. 그래서 제안된 것이 Log-MIA다.


Log-MIA는 다음을 기준으로 삼는다:

 * 얼마나 많은 훈련 샘플이 정확히 맞춰졌는가?

 * 그 과정에서 잘못 맞춘 (비훈련) 샘플은 얼마나 되는가?

 * 그 결과가 통계적으로 의미 있는 수준인가?


이 방식은 두 가지 평가 체계를 갖는다:

1. Regime A: 실수(FP) 없이 진짜 훈련 데이터를 몇 개나 맞췄는가?

2. Regime B: 소수의 실수를 허용했을 때, 얼마나 많이 맞췄는가?


이 두 체계를 통해 '심각한 유출', '중간 수준 유출', '무시할 수 있는 유출'을 구분할 수 있게 됐다.


실험 결과: 놀라운 효율

FeS-MIA는 세 가지 대표적인 데이터셋에서 실험됐다:

 CIFAR-10, CIFAR-100: 이미지 분류용 소형 데이터셋

 WikiText-103: 언어모델 훈련용 대형 텍스트 데이터


결과 요약:

* Regime A에서는 극단적으로 적은 데이터로는 심각한 유출을 잡기 어려웠다.

* 하지만 Regime B에서는 FeS-MIA TT와 SS 모델이 기존 대형 MIA 모델과 유사한 유출 수준을 달성했다.

* 특히, FeS-MIA TT는 1개의 샘플만으로도 의미 있는 유출을 탐지할 수 있었다.


즉, 적은 자원으로도 프라이버시 리스크를 빠르게 점검할 수 있는 현실적인 도구가 된 셈이다.


---

왜 이 연구가 중요한가?

1. 개인정보 유출 위험 진단이 쉬워졌다

   이제 대형 AI 모델의 학습 데이터가 잘 보호되고 있는지를 확인하는 데 많은 시간과 데이터가 필요하지 않다.


2. 경량 환경에서도 사용 가능하다

   에지 컴퓨팅이나 규제 환경처럼 자원이 제한된 상황에서도 충분히 사용 가능하다.


3. 보안 정책 수립에 기여

   AI 서비스 도입 전에 FeS-MIA로 사전 점검을 하면, 민감 정보의 유출 가능성을 줄일 수 있다.


---

마지막 한 마디

AI의 위력은 단지 ‘정확함’에 있지 않다. AI가 무엇을, 얼마나 기억하는지도 중요하다. 특히 그 기억이 ‘누가 훈련에 참여했는가’를 드러낼 수 있다면, 그것은 큰 위험이다.

이번 연구는 적은 자원으로도 그 위험을 탐지할 수 있는 ‘실용적 무기’를 만들어냈다. 앞으로 AI 개발자들이 모델을 만들 때, 성능 못지않게 ‘기억의 흔적’을 지우는 기술에도 주목해야 할 이유가 생겼다.

---

출처 논문

Jiménez-López, D.; Rodríguez-Barroso, N.; Luzón, M.V.; Del Ser, J.; Herrera, F. Membership Inference Attacks Fueled by Few-Shot Learning to Detect Privacy Leakage and Address Data Integrity. Mach. Learn. Knowl. Extr. 2025, 7, 43.